扩张的卷积基本上是通过定期插入内核元素之间的空格而创建的更宽内核的卷积。在本文中,我们提出了一种新版本的扩张卷积,其中通过通过插值技术通过反向化进行了学习的间距。我们称这种方法“通过学习间距扩张卷积”(DCLS),并推广其对N维卷积案例的方法。但是,我们这里的主要焦点将是我们开发了两种实现的2D案例:一个天真的外壳:一个天真的一个,它构建了适合小的扩张率的扩张内核,以及使用“IM2COL的修改版本的时间/记忆有效的内核” “ 算法。然后,我们通过DCLS ONE通过简单的替换,我们如何通过简单的替换DCLS替换该技术如何通过简单的替换置换古典扩张的卷积层对Pascal VOC 2012 DataSet上的现有架构的准确性。此外,我们表明DCLS允许减少最近Convmixer架构中使用的深度卷曲的学习参数的数量,其因子3具有NO或非常低的准确性,并且通过用稀疏DCLS替换大型密集内核。该方法的代码基于Pytorch,可用于:https://github.com/k-h-imail/dilated-convolution-with-learnable-pacings-pytorch。
translated by 谷歌翻译
深度估计是一个重要的计算机视觉任务,特别是用于自主车辆中的导航,或者在机器人中的对象操纵。在这里,我们使用端到端的神经形态方法解决了它,将两个事件的相机和尖峰神经网络(SNN)与略微修改的U-Net的编码器 - 解码器架构结合起来,我们命名为Sterepike。更具体地说,我们使用了多车辆立体声事件相机数据集(MVSEC)。它提供了深度地面真理,用于使用替代梯度下降以监督方式训练立体摩托车。我们提出了一种新颖的读数范式来获得密集的模拟预测 - 从解码器的尖峰中获得每个像素的深度。我们证明,这种体系结构概括得非常好,甚至比其非尖峰对应物更好,导致最先进的测试精度。据我们所知,这是第一次通过完全尖峰网络解决了这样一个大规模的回归问题。最后,我们表明,可以通过规范化获得低发射速率(<10%),精度最低的成本。这意味着可以在神经芯片上有效地实现Sterepositike,用于为低功率和实时嵌入式系统开门。
translated by 谷歌翻译
我们提出了一种新的学习算法,使用传统的人工神经网络(ANN)作为代理训练尖刺神经网络(SNN)。我们分别与具有相同网络架构和共享突触权重的集成和火(IF)和Relu神经元进行两次SNN和ANN网络。两个网络的前进通过完全独立。通过假设具有速率编码的神经元作为Relu的近似值,我们将SNN中的SNN的误差进行了回复,以更新共享权重,只需用SNN的ANN最终输出替换ANN最终输出。我们将建议的代理学习应用于深度卷积的SNNS,并在Fahion-Mnist和CiFar10的两个基准数据集上进行评估,分别为94.56%和93.11%的分类准确性。所提出的网络可以优于培训的其他深鼻涕,训练,替代学习,代理梯度学习,或从深处转换。转换的SNNS需要长时间的仿真时间来达到合理的准确性,而我们的代理学习导致高效的SNN,模拟时间较短。
translated by 谷歌翻译
深度尖峰神经网络(SNNS)目前由于离散二进制激活和复杂的空间 - 时间动态而导致的基于梯度的方法的优化困难。考虑到Reset的巨大成功在深度学习中,将深入了解剩余学习,这将是自然的。以前的尖峰Reset模仿ANN的标准残留块,并简单地用尖刺神经元取代relu激活层,这遭受了劣化问题,并且很难实施剩余学习。在本文中,我们提出了尖峰元素 - 明智(SEW)RESET,以实现深部SNNS的剩余学习。我们证明SEW RESET可以轻松实现身份映射并克服Spiking Reset的消失/爆炸梯度问题。我们在Imagenet,DVS手势和CIFAR10-DVS数据集中评估我们的SEF RESET,并显示SEW RESNET以准确性和时间步长,最先进的直接训练的SNN。此外,SEW Reset通过简单地添加更多层来实现更高的性能,提供一种培训深舒头的简单方法。为了我们的最佳知识,这是第一次直接训练具有100多层以上的深度SNN。我们的代码可在https://github.com/fangwei123456/spike-element-wore-resnet上获得。
translated by 谷歌翻译
互联网流量识别是访问提供商的重要工具,因为识别与网络上传输的不同数据数据包相关的流量类别有助于他们定义改编的优先级。这意味着,例如,音频会议的高优先级要求和文件传输的低点要求,以增强用户体验。随着互联网流量越来越加密,主流经典的流量识别技术,有效载荷检查是无效的。本文使用机器学习技术进行加密的流量分类,仅查看数据包大小和到达时间。尖峰神经网络(SNN)在很大程度上受到生物神经元的操作的启发,原因有两个。首先,他们能够识别与时间相关的数据包功能。其次,它们可以在能量足迹低的神经形态硬件上有效地实施。在这里,我们使用了一个非常简单的馈电SNN,只有一个完全连接的隐藏层,并使用新引入的方法以替代梯度学习为监督的方式进行了训练。令人惊讶的是,如此简单的SNN在ISCX数据集上达到了95.9%的精度,表现优于先前的方法。除了更好的精度外,简单性也有很大的改善:输入大小,神经元数量,可训练的参数均减少一到四个数量级。接下来,我们分析了这种良好准确性的原因。事实证明,除了空间(即数据包大小)功能之外,SNN还利用了暂时性的功能,主要是几乎同步(在200ms范围内)到达的数据包,具有某些尺寸的数据包。综上所述,这些结果表明,SNN非常适合加密的互联网流量分类:它们比传统的人工神经网络(ANN)更准确,并且可以在低功率嵌入式系统上有效实施。
translated by 谷歌翻译
我们最近提出了S4NN算法,基本上是对多层尖峰神经网络的反向化的适应,该网上网络使用简单的非泄漏整合和火神经元和一种形式称为第一峰值编码的时间编码。通过这种编码方案,每次刺激最多一次都是神经元火灾,但射击令携带信息。这里,我们引入BS4NN,S4NN的修改,其中突触权重被约束为二进制(+1或-1),以便减少存储器(理想情况下,每个突触的一个比特)和计算占地面积。这是使用两组权重完成:首先,通过梯度下降更新的实际重量,并在BackProjagation的后退通行证中使用,其次是在前向传递中使用的迹象。类似的策略已被用于培训(非尖峰)二值化神经网络。主要区别在于BS4NN在时域中操作:尖峰依次繁殖,并且不同的神经元可以在不同时间达到它们的阈值,这增加了计算能力。我们验证了两个流行的基准,Mnist和Fashion-Mnist上的BS4NN,并获得了这种网络的合理精度(分别为97.0%和87.3%),具有可忽略的准确率,具有可忽略的重量率(0.4%和0.7%,分别)。我们还展示了BS4NN优于具有相同架构的简单BNN,在这两个数据集上(分别为0.2%和0.9%),可能是因为它利用时间尺寸。建议的BS4NN的源代码在HTTPS://github.com/srkh/bs4nn上公开可用。
translated by 谷歌翻译
The formalization of existing mathematical proofs is a notoriously difficult process. Despite decades of research on automation and proof assistants, writing formal proofs remains arduous and only accessible to a few experts. While previous studies to automate formalization focused on powerful search algorithms, no attempts were made to take advantage of available informal proofs. In this work, we introduce Draft, Sketch, and Prove (DSP), a method that maps informal proofs to formal proof sketches, and uses the sketches to guide an automated prover by directing its search to easier sub-problems. We investigate two relevant setups where informal proofs are either written by humans or generated by a language model. Our experiments and ablation studies show that large language models are able to produce well-structured formal sketches that follow the same reasoning steps as the informal proofs. Guiding an automated prover with these sketches enhances its performance from 20.9% to 39.3% on a collection of mathematical competition problems.
translated by 谷歌翻译
持续学习(CL,有时也称为增量学习)是机器学习的一种味道,在该口味中,通常会放松或省略固定数据分布的通常假设。当天然应用时,例如CL问题中的DNNS时,数据分布的变化会导致所谓的灾难性遗忘(CF)效应:突然丧失了先前的知识。尽管近年来已经为启用CL做出了许多重大贡献,但大多数作品都解决了受监督的(分类)问题。本文回顾了在其他环境中研究CL的文献,例如通过减少监督,完全无监督的学习和强化学习的学习。除了提出一个简单的模式用于分类CL方法W.R.T.他们的自主权和监督水平,我们讨论了与每种设置相关的具体挑战以及对CL领域的潜在贡献。
translated by 谷歌翻译
已知应用于任务序列的标准梯度下降算法可在深层神经网络中产生灾难性遗忘。当对序列中的新任务进行培训时,该模型会在当前任务上更新其参数,从而忘记过去的知识。本文探讨了我们在有限环境中扩展任务数量的方案。这些方案由与重复数据的长期任务组成。我们表明,在这种情况下,随机梯度下降可以学习,进步并融合到根据现有文献需要持续学习算法的解决方案。换句话说,我们表明该模型在没有特定的记忆机制的情况下执行知识保留和积累。我们提出了一个新的实验框架,即Scole(缩放量表),以研究在潜在无限序列中的知识保留和算法的积累。为了探索此设置,我们对1,000个任务的序列进行了大量实验,以更好地了解这种新的设置家庭。我们还提出了对香草随机梯度下降的轻微修改,以促进这种情况下的持续学习。 SCOLE框架代表了对实用训练环境的良好模拟,并允许长序列研究收敛行为。我们的实验表明,在短方案上以前的结果不能总是推断为更长的场景。
translated by 谷歌翻译
人形机器人可以在危险情况下取代人类,但大多数此类情况对他们来说同样危险,这意味着他们有很大的损害和下降的机会。我们假设人形机器人主要用于建筑物,这使它们可能靠近墙壁。为了避免跌倒,他们可以像人类那样靠在最接近的墙上,只要他们在几毫秒内找到手放手的地方。本文介绍了一种称为D-Reflex的方法,该方法学习了一个神经网络,该神经网络在墙壁方向,墙壁距离和机器人的姿势下选择此接触位置。然后,全身控制器使用此接触位置来达到稳定的姿势。我们表明,D-Reflex允许模拟的Talos机器人(1.75m,100kg,30自由度)避免了超过75%的可避免跌倒,并且可以在真正的机器人上工作。
translated by 谷歌翻译